Telegram Group Search
🔥 Холивар: Jupyter Notebook — «мертв» или «живее всех живых»?

С каждым годом всё больше говорят, что Jupyter — «игрушка для новичков», «ад для reproducibility», «debug невозможен», и ему нет места в продакшне. Но с другой стороны — это удобство, интерактивность и быстрое прототипирование.

😡 Одна из проблем, с которой сталкиваются многие — это слияние ноутбуков и git-конфликты, которые могут превращать работу в настоящий кошмар. Если вам это знакомо, значит, вы просто ещё не попробовали nbdime.

Это набор утилит, которые делают сравнение и слияние ноутбуков человеческим:
nbdiff — сравнение ноутбуков прямо в терминале
nbdiff-web — визуальное сравнение с рендером ячеек
nbmerge — трёхсторонний merge с автоматическим разрешением конфликтов
nbmerge-web — тот же merge, но в браузере
nbshow — удобный просмотр ноутбука в консоли

📌 Если до этого вы просто коммитили .ipynb «как получится» — попробуйте, это может изменить ваше мнение о Jupyter.

А теперь по-честному: используете ли Jupyter в 2025?
Давайте обсужим в комментариях! ⤵️
Инструкция о том, как оставить комментарий: https://www.tg-me.com/Библиотека дата сайентиста | Data Science Machine learning анализ данных машинное обучение/com.dsproglib/6244

❤️ — Без Jupyter не обойтись, он мой главный инструмент
👍 — Ушёл на другие решения, Jupyter — это прошлый век
🤔 — Не могу выбрать, использую и Jupyter, и другие инструменты

Библиотека дата-сайентиста #междусобойчик
Please open Telegram to view this post
VIEW IN TELEGRAM
🆕 Свежие новости из мира AI и Data Science

🔥 Модели, релизы и технологии:
Scikit-learn, UMAP и HDBSCAN теперь работают на GPU — ускорение без единой строчки изменений в коде
Свежий релиз PyTorch 2.7 — новые возможности для оптимизации, работы с графами и улучшения API
Периодическая таблица машинного обучения от MIT — удобная визуализация ключевых алгоритмов и методов

🧠 Статьи, исследования и лучшие практики:
Как в Авито предсказывают категории объявлений по описанию — разбор ML-решений в реальном продукте
Mixture of Experts: когда нейросеть учится делегировать — о динамическом распределении задач между частями модели
Организация датасетов с ClearML — практическое руководство для ML-команд
Пайплайн распознавания номеров транспортных средств: как это устроено — кейс от МТС о построении полного конвейера

👍 Cоветы:
Как перестать кидать Jupyter-ноутбуки по почте — гид по эффективной коллаборации с данными и моделями

Библиотека дата-сайентиста #свежак
👨‍💻 Топ-вакансий для дата-сайентистов за неделю

Power BI разработчик — от 125 000 ₽, удалёнка

Data Engineer — от 350 000 до‍ 440 000 ₽, удалёнка

TL Data Scientist — до 459 000 ₽, удалёнка

Senior Data Analyst, удалёнка

Senior Data Scientist (Rec. System), удалёнка

➡️ Еще больше топовых вакансий — в нашем канале Data jobs

Библиотека дата-сайентиста
Please open Telegram to view this post
VIEW IN TELEGRAM
🚀 Вышел Apache Airflow 3.0 — крупнейшее обновление за последнее время

После месяцев активной работы сообщества мир увидел релиз Apache Airflow 3.0 — важный шаг вперёд для оркестрации данных.

Что нового:
➡️ Сервисно-ориентированная архитектура — разворачивайте только нужные компоненты, без монолита.
➡️ Планирование на основе данных — теперь можно нативно определять и отслеживать объекты данных.
➡️ Событийное управление — запускайте DAG-и не только по расписанию, но и в ответ на события.
➡️ Версионирование DAG-ов — история выполнения сохраняется даже при изменении кода.
➡️ Новый UI на React — современный, удобный, полностью переработанный веб-интерфейс.

👉 Подробнее: https://clc.to/1KZxhQ

Библиотека дата-сайентиста #свежак
Please open Telegram to view this post
VIEW IN TELEGRAM
🔍 Datacompy — библиотека для быстрого сравнения DataFrame'ов

Datacompy — мощная Python-библиотека для валидации и сравнения данных.
Идеально подходит для работы с Pandas, Polars и Spark.

Что умеет:
🟠 Сравнивает строки и столбцы между DataFrame'ами
🟠 Генерирует подробные отчёты о различиях
🟠 Гибкая настройка: ключи сравнения, допуски, регистр

Преимущества:
🟠 Лёгкая интеграция в пайплайны и тесты
🟠 Подходит для больших данных и распределённых вычислений
🟠 Контроль качества данных в ETL и миграциях

➡️ Подробнее: https://clc.to/6ZBRkA

Библиотека дата-сайентиста #буст
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥 IT Breaking Memes — 30 000 ₽ за самую смешную IT-новость

Библиотека программиста запускает конкурс, который взорвет вашу ленту: создайте самую смешную альтернативную версию реальной IT-новости!

👾 Правила просты:
1. Берете настоящую новость из мира технологий.
2. Переписываете ее так, чтобы смеялись все.
3. Получаете деньги и славу.

🏆 Призы:
- 1 место: 30 000 ₽ + статус ведущего нового юмористического IT-канала
- 2 и 3 место: по 5 000 ₽ + вечный почет в IT-сообществе

Пример:
Реальная новость: «Гугл создала модель для общения с дельфинами».

Смешная альтернатива: «Нейросеть от Гугл обрабатывает видеопоток с камеры в свинарнике. ИИ следит, сколько свинья находится возле кормушки, не отталкивают ли ее собратья. Недокормленных докармливают, а переевшие пропускают следующую кормешку».

📅 Сроки: с 29 апреля по 11 мая включительно

Для участия отправьте свою смешную новость в гугл-форму: https://forms.gle/6YShjgfiycfJ53LX8

Ждем ваших новостей!
🐍 Пиши как профи: 10 Python-лайфхаков для новичков

Лайфхаки от разработчиков, обжёгшихся до вас

➡️ Что вас ждет внутри:
— почему if x == True: — это преступление
— как списковые включения экономят часы
— зачем линтер важнее кофе
— и почему def func(start_list=[]) может испортить тебе вечер
— как не сойти с ума от зависимостей (и что делать с виртуальными окружениями)
— секретный power move: dir(), help() и другие встроенные суперсилы

И всё это без занудства и «книг для чайников». Просто, по делу, с примерами и личным опытом от бывалых питонистов

📎 Статья

🔵 Начинайте свой путь в программировании и прокачивайте свои навыки с нашим курсом «Основы программирования на Python»

Proglib Academy #буст
Please open Telegram to view this post
VIEW IN TELEGRAM
🎯 Промпт для анализа и оптимизации пайплайнов обработки данных

Этот промпт поможет оптимизировать пайплайны данных для повышения эффективности, автоматизации процессов и улучшения качества данных, используемых в проектах.

🧾 Промпт:
Prompt: [опишите текущий пайплайн обработки данных]

I want you to help me analyze and optimize my data processing pipeline. The pipeline involves [data collection, cleaning, feature engineering, storage, etc.]. Please follow these steps:

1. Data Collection:
- Evaluate the current method of data collection and suggest improvements to increase data quality and speed.
- If applicable, recommend better APIs, data sources, or tools for more efficient data collection.

2. Data Cleaning:
- Check if the data cleaning process is efficient. Are there any redundant steps or unnecessary transformations?
- Suggest tools and libraries (e.g., pandas, PySpark) for faster and more scalable cleaning.
- If data contains errors or noise, recommend methods to identify and handle them (e.g., outlier detection, missing value imputation).

3. Feature Engineering:
- Evaluate the current feature engineering process. Are there any potential features being overlooked that could improve the model’s performance?
- Recommend automated feature engineering techniques (e.g., FeatureTools, tsfresh).
- Suggest any transformations or feature generation techniques that could make the data more predictive.

4. Data Storage & Access:
- Suggest the best database or storage system for the current project (e.g., SQL, NoSQL, cloud storage).
- Recommend methods for optimizing data retrieval times (e.g., indexing, partitioning).
- Ensure that the data pipeline is scalable and can handle future data growth.

5. Data Validation:
- Recommend methods to validate incoming data in real-time to ensure quality.
- Suggest tools for automated data validation during data loading or transformation stages.

6. Automation & Monitoring:
- Recommend tools or platforms for automating the data pipeline (e.g., Apache Airflow, Prefect).
- Suggest strategies for monitoring data quality throughout the pipeline, ensuring that any anomalies are quickly detected and addressed.

7. Performance & Efficiency:
- Evaluate the computational efficiency of the pipeline. Are there any bottlenecks or areas where processing time can be reduced?
- Suggest parallelization techniques or distributed systems that could speed up the pipeline.
- Provide recommendations for optimizing memory usage and reducing latency.

8. Documentation & Collaboration:
- Ensure the pipeline is well-documented for future maintainability. Recommend best practices for documenting the pipeline and the data flow.
- Suggest collaboration tools or platforms for teams working on the pipeline to ensure smooth teamwork and version control.


📌 Что получите на выходе:
• Анализ пайплайна обработки данных: поиск проблем и предложений для улучшения
• Рекомендации по автоматизации и мониторингу: улучшение рабочих процессов с помощью инструментов автоматизации
• Рекомендации по хранению и доступу: оптимизация хранения и извлечения данных
• Оптимизация и улучшение производительности: уменьшение времени обработки данных и повышение эффективности

Библиотека дата-сайентиста #буст
This media is not supported in your browser
VIEW IN TELEGRAM
How to: работать с 11 типами переменных в данных

В анализе данных и машинном обучении важно понимать, с какими типами переменных вы имеете дело — это помогает правильно интерпретировать данные, строить модели и избегать ошибок.

👇 Разберём 11 ключевых типов переменных.

➡️ Независимые и зависимые переменные:
🔵Независимые переменные (или предикторы/фичи) — это признаки, которые используются в качестве входных данных для предсказания результата.
🔵 Зависимая переменная — это результат, который предсказывается. Её также называют целевой переменной, ответом или выходной переменной.
🔵 Пример: предсказываем уровень дохода (зависимая переменная) по возрасту, образованию и стажу (независимые переменные).

➡️ Спутывающие и коррелированные переменные:
🔵 Спутывающие переменные влияют и на независимую, и на зависимую переменную, искажают причинно-следственные связи.
🔵 Коррелированные переменные могут быть связаны между собой, но это не означает наличие причинной связи.
🔵 Важно: «Корреляция ≠ причинность».
🔵 Пример: продажи мороженого и кондиционеров растут одновременно не из-за связи между ними, а из-за жары (спутывающая переменная).

➡️ Контрольные переменные:
🔵 Не являются объектом исследования, но учитываются, чтобы избежать искажения результатов.
🔵 Пример: при исследовании влияния образования на доход контролируют возраст и регион.

➡️ Латентные (скрытые) переменные:
🔵 Не наблюдаются напрямую, но влияют на данные. Выводятся опосредованно через другие признаки.
🔵 Пример: кластеры пользователей (предпочтения, поведение) — латентны, но можно выявить с помощью кластеризации.

➡️ Переменные взаимодействия:
🔵 Отражают влияние комбинации двух или более переменных.
🔵 Пример: взаимодействие плотности населения и дохода может выявить различия в потреблении по регионам.

➡️ Стационарные и нестационарные переменные:
🔵 Стационарные: статистики (среднее, дисперсия) не меняются со временем.
🔵 Нестационарные: имеют тренды, сезонность, нарушают предположения многих моделей.
🔵 Пример: цены акций — нестационарны, их нужно преобразовать перед анализом (например, логарифм, разности).

➡️ Отставшие переменные:
🔵 Переменные, которые представляют собой значения с предыдущих временных точек.
🔵 Продажи в прошлом месяце — отставшая переменная для прогноза продаж в следующем.

➡️ Утечка переменных:
🔵 Эти переменные предоставляют информацию о целевой переменной, которая была бы недоступна во время предсказания. Это приводит к чрезмерно оптимистичной производительности модели на обучающих данных, но она плохо обобщается на новые данные.
🔵 Пример: дата оформления страховки появляется в обучении, но при предсказании она ещё неизвестна.

Библиотека дата-сайентиста #буст
Please open Telegram to view this post
VIEW IN TELEGRAM
🎯 Фишка инструмента: топ-5 библиотек Python для EDA (разведочного анализа данных)

EDA (Exploratory Data Analysis) — это важнейший этап анализа данных, помогающий понять структуру, закономерности и аномалии в данных перед моделированием. Ниже — библиотеки, которые максимально ускоряют и упрощают этот процесс.

1️⃣ pandas\_profiling
import pandas_profiling  
report = pandas_profiling.ProfileReport(df)
report.to_file("eda_report.html")


🟪 Генерирует полноценный HTML-отчёт по DataFrame.
🟪 Показывает распределения, корреляции, пропущенные значения, типы данных и многое другое.
🟪 Отличный способ получить обзор по данным всего за пару строк кода.

2️⃣ Sweetviz
import sweetviz  
report = sweetviz.analyze(df)
report.show_html("sweetviz_report.html")


🟪 Создаёт красивый визуальный EDA-отчёт.
🟪 Можно сравнивать два набора данных (например, обучающую и тестовую выборки).
🟪 Очень полезен для выявления смещений и различий между выборками.

3️⃣ D-Tale
import dtale  
dtale.show(df)


🟪 Открывает DataFrame в веб-интерфейсе прямо в браузере.
🟪 Позволяет фильтровать, сортировать, строить графики и смотреть статистику без написания кода.
🟪 Идеален для быстрой визуальной разведки данных.

4️⃣ Skimpy
import skimpy  
skimpy.clean_columns(df)
skimpy.scan(df)


🟪 Очищает названия столбцов (удаляет пробелы, приводит к удобному формату).
🟪 Показывает компактную сводку: типы, пропуски, уникальные значения и т.д.
🟪 Очень лёгкая и быстрая библиотека — минимализм и эффективность.

5️⃣ AutoViz
from autoviz.AutoViz_Class import AutoViz_Class  
AV = AutoViz_Class()
AV.AutoViz("your_file.csv")


🟪 Автоматически определяет тип переменных и строит графики: распределения, тренды, связи между переменными.
🟪 Работает напрямую с CSV и Pandas DataFrame.
🟪 Подходит для быстрого первичного анализа без ручного выбора визуализаций.

Библиотека дата-сайентиста #буст
Please open Telegram to view this post
VIEW IN TELEGRAM
🎓 Как выбрать свою роль в Data Science и не потеряться в терминах

Если вы только начинаете разбираться в Data Science — перед вами лабиринт из названий: data scientist, аналитик, ML-инженер, BI, архитектор... Кто чем занимается? Что нужно учить?

➡️ Что внутри статьи

— Кто такие Data Engineer

— Чем отличается Data Architect от инженера и зачем он нужен в big data проектах

— Чем занимаются Data Analyst и почему это отличная точка входа в карьеру

— Что делает настоящий Data Scientist

В статье разобрано всё: от задач до технологий, которые реально спрашивают на собеседованиях.

📎 Ссылка

Азбука айтишника #ликбез
Please open Telegram to view this post
VIEW IN TELEGRAM
Самые догадливые, пишите ответ в комментах 👇

Небольшая подсказка — это термин относится к AI или DS.

Прячем ответы под спойлер, чтобы не спалить остальным.

Библиотека дата-сайентиста #междусобойчик
2025/05/12 21:57:05
Back to Top
HTML Embed Code: